现有可解释人工智能 (XAI) 算法的边界局限于基于技术用户对可解释性需求的问题。这种研究范式不成比例地忽略了更大的非技术最终用户群体,而他们对人工智能解释的需求要高得多,原因多种多样,例如做出更安全、更好的决策以及改善用户的预测结果。缺乏以可解释性为重点的最终用户功能支持可能会妨碍人工智能在医疗保健、刑事司法、金融和自动驾驶系统等高风险领域安全和负责任地使用。基于先前对最终用户对 XAI 需求的人为因素分析,我们确定并建模了四个新颖的 XAI 技术问题,涵盖了从设计到 XAI 算法评估的整个范围,包括基于边缘案例的推理、可定制的反事实解释、可折叠决策树和评估 XAI 效用的可验证性指标。基于这些新发现的研究问题,我们还讨论了以用户为中心的 XAI 技术开发中的未解决的问题,以启发未来的研究。我们的工作将以人为中心的 XAI 与技术 XAI 社区联系起来,并呼吁在以用户为中心的 XAI 技术开发方面建立一种新的研究范式,以便在关键任务中负责任地使用 AI。
主要关键词
![arXiv:2208.08739v2 [cs.AI] 2023 年 1 月 23 日PDF文件第1页](/bimg/a/a8a417fbdfb32313bb90447947a439c15d2b2338.webp)
![arXiv:2208.08739v2 [cs.AI] 2023 年 1 月 23 日PDF文件第2页](/bimg/8/8ff2e9027162a52de8dc13bbf779ab1d34d45d94.webp)
![arXiv:2208.08739v2 [cs.AI] 2023 年 1 月 23 日PDF文件第3页](/bimg/b/b53be1d8c3dcb10c0171a0adb998876a07d47133.webp)
![arXiv:2208.08739v2 [cs.AI] 2023 年 1 月 23 日PDF文件第4页](/bimg/f/fff7cae7ac4d457f76b68998c02300137c3f184c.webp)
![arXiv:2208.08739v2 [cs.AI] 2023 年 1 月 23 日PDF文件第5页](/bimg/a/a2c112b98fd0c29070e65bdf7f31c70ac2ca449f.webp)
